尽管大量研究专门用于变形检测,但大多数研究都无法推广其在训练范式之外的变形面。此外,最近的变体检测方法非常容易受到对抗攻击的影响。在本文中,我们打算学习一个具有高概括的变体检测模型,以对各种形态攻击和对不同的对抗攻击的高度鲁棒性。为此,我们开发了卷积神经网络(CNN)和变压器模型的合奏,以同时受益于其能力。为了提高整体模型的鲁棒精度,我们采用多扰动对抗训练,并生成具有高可传递性的对抗性示例。我们详尽的评估表明,提出的强大合奏模型将概括为几个变形攻击和面部数据集。此外,我们验证了我们的稳健集成模型在超过最先进的研究的同时,对几次对抗性攻击获得了更好的鲁棒性。
translated by 谷歌翻译
近年来,由于深度学习体系结构的有希望的进步,面部识别系统取得了非凡的成功。但是,当将配置图像与额叶图像的画廊匹配时,它们仍然无法实现预期的准确性。当前方法要么执行姿势归一化(即额叶化)或脱离姿势信息以进行面部识别。相反,我们提出了一种新方法,通过注意机制将姿势用作辅助信息。在本文中,我们假设使用注意机制姿势参加的信息可以指导剖面面上的上下文和独特的特征提取,从而进一步使嵌入式域中的更好表示形式学习。为了实现这一目标,首先,我们设计了一个统一的耦合曲线到额定面部识别网络。它通过特定于类的对比损失来学习从面孔到紧凑的嵌入子空间的映射。其次,我们开发了一个新颖的姿势注意力块(PAB),以专门指导从剖面面上提取姿势 - 不合稳定的特征。更具体地说,PAB旨在显式地帮助网络沿着频道和空间维度沿着频道和空间维度的重要特征,同时学习嵌入式子空间中的歧视性但构成不变的特征。为了验证我们提出的方法的有效性,我们对包括多PIE,CFP,IJBC在内的受控和野生基准进行实验,并在艺术状态下表现出优势。
translated by 谷歌翻译
在本文中,我们试图在抽象嵌入空间中绘制额叶和轮廓面图像之间的连接。我们使用耦合编码器网络利用此连接将额叶/配置文件的面部图像投影到一个常见的潜在嵌入空间中。提出的模型通过最大化面部两种视图之间的相互信息来迫使嵌入空间中表示的相似性。拟议的耦合编码器从三个贡献中受益于与极端姿势差异的匹配面。首先,我们利用我们的姿势意识到的对比学习来最大程度地提高身份额叶和概况表示之间的相互信息。其次,由在过去的迭代中积累的潜在表示组成的内存缓冲区已集成到模型中,因此它可以比小批量大小相对较多的实例。第三,一种新颖的姿势感知的对抗结构域适应方法迫使模型学习从轮廓到额叶表示的不对称映射。在我们的框架中,耦合编码器学会了扩大真实面孔和冒名顶替面部分布之间的边距,这导致了相同身份的不同观点之间的高度相互信息。通过对四个基准数据集的广泛实验,评估和消融研究来研究拟议模型的有效性,并与引人入胜的最新算法进行比较。
translated by 谷歌翻译
尽管对抗性和自然训练(AT和NT)之间有基本的区别,但在方法中,通常采用动量SGD(MSGD)进行外部优化。本文旨在通过研究AT中外部优化的忽视作用来分析此选择。我们的探索性评估表明,与NT相比,在诱导较高的梯度规范和方差。由于MSGD的收敛速率高度取决于梯度的方差,因此这种现象阻碍了AT的外部优化。为此,我们提出了一种称为ENGM的优化方法,该方法将每个输入示例对平均微型批次梯度的贡献进行正规化。我们证明ENGM的收敛速率与梯度的方差无关,因此适合AT。我们介绍了一种技巧,可以使用有关梯度范围W.R.T.规范的相关性的经验观察来降低ENGM的计算成本。网络参数和输入示例。我们对CIFAR-10,CIFAR-100和Tinyimagenet的广泛评估和消融研究表明,Engm及其变体一致地改善了广泛的AT方法的性能。此外,Engm减轻了AT的主要缺点,包括强大的过度拟合和对超参数设置的敏感性。
translated by 谷歌翻译
随着面部生物识别技术的广泛采用,在自动面部识别(FR)应用中区分相同的双胞胎和非双胞胎外观相似的问题变得越来越重要。由于同卵双胞胎和外观相似的面部相似性很高,因此这些面对对面部识别工具表示最困难的病例。这项工作介绍了迄今为止汇编的最大的双胞胎数据集之一,以应对两个挑战:1)确定相同双胞胎和2)的面部相似性的基线度量和2)应用此相似性措施来确定多ppelgangers的影响或外观 - Alikes,关于大面部数据集的FR性能。面部相似性度量是通过深度卷积神经网络确定的。该网络经过量身定制的验证任务进行培训,旨在鼓励网络在嵌入空间中将高度相似的面对对组合在一起,并达到0.9799的测试AUC。所提出的网络为任何两个给定的面提供了定量相似性评分,并已应用于大规模面部数据集以识别相似的面对对。还执行了一个附加分析,该分析还将面部识别工具返回的比较分数以及提议网络返回的相似性分数。
translated by 谷歌翻译
在本文中,我们设计了一种基于生成的对抗网络(GAN)的解决方案,用于视网膜层的光学相干断层扫描(OCT)扫描的超分辨率和分割。 OCT已被确定为成像的一种非侵入性和廉价的模态,可发现潜在的生物标志物,以诊断和进展神经退行性疾病,例如阿尔茨海默氏病(AD)。当前的假设假设在OCT扫描中可分析的视网膜层的厚度可能是有效的生物标志物。作为逻辑第一步,这项工作集中在视网膜层分割的挑战性任务以及超级分辨率的挑战性任务上,以提高清晰度和准确性。我们提出了一个基于GAN的细分模型,并评估合并流行网络,即U-NET和RESNET,在GAN体系结构中,并具有其他转置卷积和子像素卷积的块,以通过将OCT图像从低分辨率提高到高分辨率到高分辨率的任务。四个因素。我们还将骰子损失纳入了额外的重建损失项,以提高该联合优化任务的性能。我们的最佳模型配置从经验上实现了0.867的骰子系数,MIOU为0.765。
translated by 谷歌翻译
光学相干断层扫描(OCT)是未侵入性且易于出现的生物标志物(视网膜层的厚度(可在OCT扫描中可检测到的)),以诊断阿尔茨海默氏病(AD)。这项工作旨在自动细分OCT图像。但是,由于各种问题,例如斑点噪声,小目标区域和不利的成像条件,这是一项具有挑战性的任务。在我们以前的工作中,我们提出了多阶段和多歧视性生成对抗网络(Multisdgan),以在高分辨率分段标签中翻译OCT扫描。在这项调查中,我们旨在评估和比较渠道和空间关注的各种组合与多根式体系结构,以通过捕获丰富的上下文关系以提高细分性能来提取更强大的特征图。此外,我们开发并评估了一个引导的MUTLI阶段注意力框架,在该框架中,我们通过在专门设计的二进制掩码和生成的注意力图之间强迫L-1损失来结合引导的注意机制。我们的消融研究结果在五倍交叉验证(5-CV)中的WVU-OCT数据集结果表明,具有串行注意模块的拟议的多键型提供了最有竞争力的性能,并指导二进制蒙版的空间注意力图。进一步提高了我们提出的网络中的性能。将基线模型与添加指导性注意事项进行比较,我们的结果表明,骰子系数和SSIM的相对改善分别为21.44%和19.45%。
translated by 谷歌翻译
我们提出了一种质量感知的多模式识别框架,其将来自多个生物特征的表示与不同的质量和样本数量相结合,以通过基于样本的质量提取互补识别信息来实现增加的识别准确性。我们通过使用以弱监督时尚估计的质量分数加权,为融合输入方式的质量意识框架,以融合输入方式的融合。此框架利用两个融合块,每个融合块由一组质量感知和聚合网络表示。除了架构修改外,我们还提出了两种特定于任务特定的损耗功能:多模式可分离性损失和多模式紧凑性损失。第一个损失确保了类的模态的表示具有可比的大小来提供更好的质量估计,而不同类别的多式数代表分布以实现嵌入空间中的最大判别。第二次丢失,被认为是正规化网络权重,通过规范框架来提高泛化性能。我们通过考虑由面部,虹膜和指纹方式组成的三个多模式数据集来评估性能。通过与最先进的算法进行比较来证明框架的功效。特别是,我们的框架优于BioMdata的模式的级别和得分级别融合超过30%以获得$ 10 ^ { - 4} $ 10 ^ { - 4} $的真正验收率。
translated by 谷歌翻译
在本文中,我们考虑了面部变形攻击的挑战,这大大破坏了面部识别系统的完整性,例如在边境保护机构中采用的那些。变形检测可以制定为提取细粒度的表示,其中利用局部鉴别特征来学习假设。为了在不同的粒度和去耦的光谱信息中获取辨别特征,我们利用小波域分析来深入了解变形面的空间频率含量。这样,而不是使用RGB域中的图像,我们使用2D小波分解将每个图像分解为其小波子频带,并且采用深度监督特征选择方案来查找输入图像的最辨别的小波子带。为此,我们使用变形和真绒图像的分解小波子带训练深度神经网络(DNN)变形探测器。在训练阶段,我们的结构群稀疏受约束的DNN从所有子带中选择了最多的鉴别性小波子带,我们恢复了我们的DNN,导致在探测器上实现了推理时的变形图像的精确检测图片。通过结构化组套索增强的深形变形探测器的功效通过三个面部变形图像数据库,即Visapp17,LMA和摩根进行了验证了通过实验验证。
translated by 谷歌翻译
围绕外观生物识别性的常见但具有挑战性的场景是跨光谱匹配 - 特别是,可见波长对近红外(NIR)周围图像的匹配。我们提出了一种新颖的方法来跨谱围绕的横梁围绕,主要侧重于学习从可见和NIR幽冥映像到共享潜在代表子空间的映射,并通过同时学习频谱内的图像重建来支持这项努力。我们显示辅助图像重建任务(特别是高级,语义特征的重建)导致学习与基线相比的更差异的域不变子空间,同时在测试时间不产生额外的计算或内存成本。所提出的耦合条件生成对抗网络(COGAN)架构使用由U-NET上的配对发电机网络(在NIR上运行另一个操作,其中通过对具有对比损耗和频谱图像的特征学习的Reset-18编码器组成用对抗性,基于像素的和感知重建损失重建。此外,所提出的Cogan模型在跨谱周边识别中击败了当前的最先进(SOTA)。在香港Polyu基准数据集上,我们达到了98.65%的AUC和5.14%EER,与SOTA EER为8.02%。在串眼的数据集上,我们达到了99.31%的AUC和3.99%的eer,而sota eer为4.39%。
translated by 谷歌翻译